home *** CD-ROM | disk | FTP | other *** search
/ SPACE 2 / SPACE - Library 2 - Volume 1.iso / apps / 386 / doc / stat3.doc < prev    next >
Text File  |  1989-06-04  |  8KB  |  146 lines

  1.                          STATS 3 MENU
  2.  
  3. REGRESSION
  4. For the tests that follow, all except LOGIT regression have 
  5. similar input and output structures. You will be asked for the 
  6. variables that are the independent variables and for the one 
  7. dependent variable. You will then be asked for the variable 
  8. (column) into which the calculated values should be placed. The 
  9. program does not place the residuals in variable (column) a, as 
  10. this would restrict the number of variables which could actually 
  11. be used in the regression. To get the residuals, simply subtract 
  12. the calculated data from the actual in the data editor. The 
  13. differences lie in additional parts of the regressions.
  14. -Multiple regression is a traditional regression. 
  15. -Ridge regression will require the entry of a ridge factor, which 
  16. should be small and between 0 and 1 (most often below .2). 
  17. -Stepwise regression is like multiple regression, except that you 
  18. specify all independent variables to be considered. The program 
  19. decides on which of these to actually use in the regression.
  20. -Cochran refers to a regression done using the Cochran-Orcutt 
  21. procedure. A "Cochran" factor of between 0 and 1 must be used. 
  22. This type of regression actually uses a part of the previous point 
  23. in the calculation. If the Cochran factor is 1, then the 
  24. regression is actually calculated upon the first differences of 
  25. the variables.
  26. -Huber regression is used to reduce the weight given to outliers 
  27. in the data. You will need to specify two additional pieces of 
  28. data. The first is the variable into which the program places the 
  29. weights, and the second is the value of the residual at which the 
  30. weights should start to be changed. This procedure can only be 
  31. used after first doing a traditional regression.
  32. -Weighted regression requires you to specify a weight variable 
  33. before execution.
  34. -Chow regression is a simple modification of multiple regression. 
  35. It is used to see if the regression parameters are constant over 
  36. the scope of the data variables. You will have to specify the 
  37. number of points to keep in the first sample.
  38. -LOGIT regression is used when the dependent variable is to be 
  39. constrained to a value above 0 but below 1. LOGIT setup converts 
  40. unsummarized data to the form required by the regression program. 
  41. (Save original data first!)
  42. -Principle Components is not actually a regression method at all. 
  43. It is a process used to reduce the number of variables needed to 
  44. explain the variation in the data. The resultant variables are 
  45. orthogonal; that is the correlation between any two variables is 
  46. 0. Regression can often then be carried out against these pseudo-
  47. variables. The process is destructive, in that it wipes out the 
  48. existing variables. Each new one is a linear combination of the 
  49. others.
  50. -Correlation matrix shows the correlation between a group of 
  51. variables, rather than doing a full regression. This is often done 
  52. to look at the effects of multi-colinearity on the data.
  53.  
  54. TIME SERIES
  55. These are methods of smoothing or projecting data. They are often 
  56. used in combination with other procedures.
  57. -Moving average requires you to choose the variable and the period 
  58. of the moving average. As well, you must select a variable into 
  59. which the averaged variable will be placed.
  60. -Geometric moving average requireS the same input as linear moving 
  61. average.
  62. -Fourier smoothing requires a variable to smooth and a variable to 
  63. place the result. It also asks for the number of terms to be kept 
  64. in the intermediate calculations. This value should be less than 
  65. 50, usually lesS than 15. There must be no missing data for this 
  66. procedure to work. Note that this can be a slow process.
  67. -Brown 1-way exponential smoothing is simple exponential 
  68. smoothing. You will be asked to specify the variable to smooth, 
  69. and a variable in which to store the result. In addition, you will 
  70. need a smoothing constant (0 to 1) and a starting value. If you do 
  71. not specify the starting value, the program will generate one. 
  72. This process is not designed for data with a distinct trend line. 
  73. If there is a distinct linear trend, then 2-way exponential 
  74. smoothing should be used.
  75. -Brown's 2-way exponential smoothing uses linear regression to 
  76. estimate a starting value and trend. You must estimate the 
  77. smoothing coefficient and variable to smooth, and variable for 
  78. result.
  79. -Holt's 2-way exponential smoothing is similar to Brown's, except 
  80. that a separate smoothing coefficient is used for the trend 
  81. factor.
  82. -Winter's exponential smoothing is used if there is a seasonal 
  83. aspect to the data (like retail sales which have a December peak). 
  84. You will have to enter 4 quantities. The first is the smoothing 
  85. coefficient for level. The second is for trend. The third is for 
  86. seasonality. The fourth value is the period of seasonality. Note 
  87. that this method should not be used with data fluctuating above 
  88. and below zero. With data that go below zero, add a constant to 
  89. the data to eliminate negative values. Then, after smoothing, 
  90. subtract the constant.
  91. -Interpolation
  92. B/STAT uses 3 forms of estimating unavailable data.
  93. -Simple linear interpolation requires that you simply select the 
  94. variable.
  95. -Lagrangian interpolation requires two variables: an "X" variable 
  96. and a "Y" variable. There can be no missing "X" variables. This 
  97. can be slow with a large data set, since each point is used in 
  98. estimating missing data.
  99. -Cubic splines assumes that the data set in the selected variable 
  100. consists of evenly-spaced observations.
  101.  
  102. EXTRACT
  103. These selections allow you to reduce the size of the data set. The 
  104. first option sums the data. For example, if you want to get yearly 
  105. totals from a data set of monthly data, you can extract summed data 
  106. and reduce the data by a factor of 12. Each element would then be 
  107. a yearly total. In the non-summed case, only every 12th value would 
  108. be left. No summing would be done. This is useful if you want to 
  109. look at subsets in isolation.
  110.  
  111. MISCELLANEOUS
  112. This menu has two procedures, in addition to the usual help 
  113. selection.
  114. -Crosstabs is used to summarize data which contained in two or 
  115. three variables. It produces a count for the combination of values 
  116. in the chosen variables. For example, you may have data on the 
  117. height and weight of a group of army recruits. You could use 
  118. crosstabs to find out the number in each height and weight 
  119. classification, where these could be height in 2-inch increments 
  120. and weight in 5-pound increments. It is most commonly used in 
  121. market research for crosses, such as between age 30 and 34 and 
  122. earning between 20,000 and 30,000 dollars per year.
  123.  
  124. You first select the variables to use in the crosstab. If you 
  125. select two, then a 2-way crosstab is done. If three, then a 3-way 
  126. crosstab is done. Next, you select the break points for the 
  127. classes in each variable. There may be up to 14 breakpoints, 
  128. giving a maximum of 15 classes for each variable. You need only 
  129. type in as many breakpoints as there are in the a specific 
  130. variable, and leave the rest blank. The number of break points can 
  131. be different for each variable. Note that the lower class includes 
  132. the break point value. Thus, a breakpoint of 200 pounds would put 
  133. 200-pound people in the lower class and 200.01 pound people in the 
  134. higher class. The program will print out the results. If you want, 
  135. you may replace the data in memory with the summarized totals. 
  136. This can be quite useful if you then want to perform a Chi square 
  137. test, type 2, on the result to see if there are any significant 
  138. relationships.
  139. -Difference is a rather simple process. The difference of a 
  140. variable is simply the amount of its change from one period to the 
  141. next. Sometimes some procedures will work better on the change in 
  142. a variable rather than the variable itself. This is especially 
  143. true in Box Jenkins analysis. You merely supply the variable to 
  144. difference and the variable into which to place the result.  
  145.  
  146.